문서의 임의 삭제는 제재 대상으로, 문서를 삭제하려면 삭제 토론을 진행해야 합니다. 문서 보기문서 삭제토론 GeForce 30 (문단 편집) == 평가 == 본 문단은 지포스 30 시리즈 전체이자 암페어 아키텍처의 전체적인 평가에 관한 내용이다. * '''이전 세대보다 게이밍 성능 향상 폭의 증가''' 이전 세대인 지포스 20 시리즈의 게이밍 성능 향상 폭은 지포스 10 시리즈가 보여준 성능 향상 폭보다 작아서 절대 성능을 기대했던 사람들에겐 아쉬운 시리즈로 평가 받았다. 이번 세대에는 지포스 10 시리즈만큼은 아니지만 적어도 지포스 20 시리즈에 보여준 성능 향상 폭보다는 확실하게 더 큰 폭으로 향상되었다. SM 내부 CUDA 코어와 ROP 파티션의 재구성, SM당 L1 캐시 메모리 용량이 최대 128 KB까지 확장, L1 캐시 대역폭을 볼타 아키텍처에서 선보였던 클럭당 128 바이트로 증가, GA102 한정으로 기존 GDDR6 SGRAM보다 더 높은 대역폭의 GDDR6X SGRAM 탑재 등 절대 성능 향상 폭을 꾀하려는 모습을 짐작할 수 있다. * '''고해상도 환경에 유리한 게이밍 성능''' SM 내부 CUDA 코어 재구성의 정체는 FP32 전용 CUDA 코어와 FP32와 INT32 유닛이 함께 탑재된 CUDA 코어가 혼합된 구조로, FP32 연산 쓰루풋을 크게 높인 덕분인지 RTX 3080, 3090 기준으로 경쟁사의 라데온 RX 6800 XT, 6900 XT보다 QHD, 4K UHD에서 각각 더 강한 모습을 보여주었다. 고해상도에 특히 강한 특성은 과거 [[GCN]] 아키텍처 기반의 라데온 HD 7900 시리즈, R9 FURY 시리즈, 라데온 RX VEGA 시리즈와 닮았는데, FP32 연산 성능 비중의 비대화가 가장 큰 요인이었으므로 암페어 아키텍처도 마찬가지라고 볼 수 있다. 재밌는 점은 현세대 라데온이 과거 맥스웰~튜링 아키텍처와 닮아가고 있다는 것. 물론, 현세대 라데온이 과거 라데온에 비해 고해상도에 약해진 것은 아니고 오히려 큰 차이 없거나 강화되었으나, 어찌 되었든 라데온 RX 6800 XT, 6900 XT가 RTX 3080, 3090보다 상대적으로 각각 밀리는 성능으로 나타났기 때문에 잘 부각되지 않았을 뿐이다. * '''향상된 전성비가 무색해진 증가된 소비 전력''' (RTX 3060 Ti, 3070 외) 절대 성능 향상에 집중된 탓인지, 이전 세대 같은 라인끼리 비교해봐도 그래픽 카드 소비전력이 크게 증가되었다. 2010년 지포스 400 시리즈부터 표기 전력보다 높은 평균 소비전력이라도 적어도 표기상으로나마 300 W를 넘지 않도록 억제되었는데, RTX 3080이 320 W, 3090이 350 W로 표기되면서 그 패턴이 깨졌다. 그렇다고 실제 소비전력에 근접하도록 높게 표기된 것인가 하면 그것도 아니다. 현세대 고사양 게임 기준으로 실제 평균 전력은 표기보다 약 10%가량 더 소모하는 것으로 밝혀졌기 때문. 특히 더 나은 성능을 위해 팩토리 오버클럭이 적용되는 상급 비레퍼런스 제품들은 평균 400 W를 넘기도 한다. 전력이 순간적으로 높게 튀는 구간에는 전력 소비량이 500 W를 넘을 정도라 [[파워서플라이(컴퓨터)|파워서플라이]]의 공급 능력이 부족해지면 과전류 보호 회로나 서지(surge) 보호 회로가 작동하며 시스템 전원이 강제로 차단되는 일이 생길 수 있다. 이 때문에 보호 회로가 제대로 작동했던 [[시소닉]] 파워서플라이 제품들이 불량품 취급을 받을 뻔하기도 했다. 이러한 무지막지한 전력소모의 상위 모델[* GDDR6X SGRAM을 쓰는 RTX 3070 Ti 이상]에 비해 GA104와 GDDR6 SGRAM을 쓰는 RTX 3070과 3060 Ti만큼은 전세대 동급 성능 그래픽 카드에 비해 소비 전력이 확실하게 줄어들었고, 표기 전력과 실제 소비 전력의 괴리도 적은 편이다. 그러나 결과적인 소비 전력까지 라인별로 동결되지 못했고, 실제 소비 전력이 표기 전력에 거의 근접하게 측정되는 경쟁사 라데온 RX 6000 시리즈에 비하면 여전히 괴리감이 약간 더 큰 것이 아쉬운 점. * '''아쉬운 전성비 향상 폭''' 지포스 30 시리즈의 전성비가 이전 세대보다 향상된 것은 명백한 사실이다. 최상위 GPU인 GA102가 탑재된 RTX 3080, 3090 기준 RTX 2080 Ti 대비 평균 15% 내외로 향상되었는데, RTX 2080 Ti가 GTX 1080 Ti 대비 평균 20% 내외로 향상된 전성비를 보여줬던 것에 비하면 아쉬운 향상 폭이다. 차상위 GPU인 GA104가 탑재된 RTX 3070, 3060 Ti의 전성비는 2070 SUPER 대비 평균 24% 내외로 크게 향상된 반면, 메인스트림 GPU인 GA106이 탑재된 RTX 3060의 전성비는 2060 SUPER 대비 평균 9% 내외밖에 향상되지 못 했다. 같은 아키텍처라도 GPU 내부 구성에 따른 전성비 향상 폭 특성을 살펴보면, GPC당 TPC의 개수가 많을수록 전성비 향상 폭이 작아지는 듯 하다. 지포스 10 시리즈에 사용된 파스칼 아키텍처도 900 시리즈에 사용된 2세대 맥스웰 아키텍처랑 비교해서 GPC당 TPC 개수가 4개씩에서 5개씩으로 증가되었음에도 전성비 문제가 없었던 것은 공정 미세화로 클럭이 매우 높아진 점, 5개씩이기 때문에 성능 효율에 큰 문제가 없었을 수도 있다. 그리고 20, 16 시리즈에 사용된 튜링 아키텍처가 파스칼 아키텍처 대비 스레드 스케줄러 개선, L1 캐시 메모리 용량 증설 및 대역폭 증가, L2 캐시 메모리 용량 증설, CUDA 코어 내부에 있던 FP32 연산 유닛과 INT32 연산 유닛의 분리를 통해 성능 효율을 꾀했음에도 전성비 향상 폭이 줄어들었는데 이는 공정 미세화가 아닌 개선에 그친데다 FP32 유닛과 INT32 유닛 분리 뿐만 아니라 텐서 코어와 RT 코어도 추가됨에 따라 실리콘 다이 면적이 매우 커져서[* RT 코어의 실체가 되는 BVH 알고리즘 모듈의 면적은 그다지 크지 않아 다이 면적 증가의 주된 요인이 아니다.] 클럭이 많이 올라가지 못 한 점, 그렇게 비대해진 GPC 내에서 TPC가 5개씩에서 6개씩으로 증가된 점을 꼽을 수 있다. 애초에 NVIDIA가 주장한 최대 1.9배 전성비 향상 --매직-- 그래프는 같은 60FPS 기준의 비교였으므로, 일반적인 전성비 비교와 다른 기준이다. * '''메모리의 엄청난 소비 전력, 발열량, 온도''' (GDDR6X SGRAM 탑재 라인 한정) RTX 3070 Ti 이상 라인에 적용된 GDDR6X SGRAM의 소비 전력, 발열량, 온도가 상당히 높다. 100℃는 물론이고 110℃ 내외로 나오는 경우도 어렵지 않게 볼 수 있다. 문제는 이게 메모리 내부 온도가 아니라 메모리 표면 온도라서 정션 온도가 표면 온도보다 약 10℃ 정도 높은 편임을 고려하면 실제 정션 온도는 100~110℃보다 더 높을 수도 있다. 물론 [[NVIDIA]]와 [[마이크론 테크놀로지|마이크론]]이 바보가 아닌 이상 높은 발열에 대해 충분히 테스트를 했겠지만 그래도 온도가 상당히 높아서 AS가 만료되는 지점인 3년차 즈음에 메모리 냉납에 의한 고장이 우려되는 부분.[* 나온지 1년이 지난 시점 기준으로 메모리 냉납 고장 사례는 없다.] 몇몇 상급 비레퍼런스는 메모리쪽에 방열판 작업을 해놔서 메모리 온도가 착한 제품도 있으니 수명을 중시한다면 그쪽 제품을 고려해보자. 아니면 직접 뜯어서 써멀패드 작업을 해줘도 메모리 온도가 꽤 내려간다. 단, 이러면 AS는 물 건너가므로 유의할 것.저장 버튼을 클릭하면 당신이 기여한 내용을 CC-BY-NC-SA 2.0 KR으로 배포하고,기여한 문서에 대한 하이퍼링크나 URL을 이용하여 저작자 표시를 하는 것으로 충분하다는 데 동의하는 것입니다.이 동의는 철회할 수 없습니다.캡챠저장미리보기